bitkeeper revision 1.1159.212.133 (4208f70bysX-Xugo-Q2_ptciUVbe_g)
authorkaf24@scramble.cl.cam.ac.uk <kaf24@scramble.cl.cam.ac.uk>
Tue, 8 Feb 2005 17:29:47 +0000 (17:29 +0000)
committerkaf24@scramble.cl.cam.ac.uk <kaf24@scramble.cl.cam.ac.uk>
Tue, 8 Feb 2005 17:29:47 +0000 (17:29 +0000)
Use size-independent '%p' format string in preference to '%08lx'.
Signed-off-by: keir.fraser@cl.cam.ac.uk
xen/arch/x86/extable.c
xen/arch/x86/mm.c
xen/arch/x86/shadow.c
xen/arch/x86/traps.c
xen/arch/x86/vmx.c
xen/common/dom_mem_ops.c
xen/common/page_alloc.c
xen/common/physdev.c
xen/include/asm-x86/mm.h
xen/include/asm-x86/shadow.h
xen/include/asm-x86/x86_64/regs.h

index d3292027e0ffb391b367c2b6638fb6ef6d93c202..907590e6cbdc14e883a110def6daa5a4169f1627 100644 (file)
@@ -67,6 +67,6 @@ search_pre_exception_table(unsigned long addr)
 {
     unsigned long fixup = search_one_table(
         __start___pre_ex_table, __stop___pre_ex_table-1, addr);
-    DPRINTK("Pre-exception: %08lx -> %08lx\n", addr, fixup);
+    DPRINTK("Pre-exception: %p -> %p\n", addr, fixup);
     return fixup;
 }
index 5d087d3df06ec5788f70f3abc7b75c19be999739..bbeab6dd63ac88f233df104707c25da6fb469b62 100644 (file)
@@ -298,13 +298,13 @@ static int get_page_from_pagenr(unsigned long page_nr, struct domain *d)
 
     if ( unlikely(!pfn_is_ram(page_nr)) )
     {
-        MEM_LOG("Pfn %08lx is not RAM", page_nr);
+        MEM_LOG("Pfn %p is not RAM", page_nr);
         return 0;
     }
 
     if ( unlikely(!get_page(page, d)) )
     {
-        MEM_LOG("Could not get page ref for pfn %08lx", page_nr);
+        MEM_LOG("Could not get page ref for pfn %p", page_nr);
         return 0;
     }
 
@@ -323,11 +323,9 @@ static int get_page_and_type_from_pagenr(unsigned long page_nr,
 
     if ( unlikely(!get_page_type(page, type)) )
     {
-#ifdef VERBOSE
         if ( (type & PGT_type_mask) != PGT_l1_page_table )
-            MEM_LOG("Bad page type for pfn %08lx (%08x)", 
+            MEM_LOG("Bad page type for pfn %p (%08x)", 
                     page_nr, page->u.inuse.type_info);
-#endif
         put_page(page);
         return 0;
     }
@@ -420,7 +418,7 @@ get_page_from_l1e(
         if ( IS_CAPABLE_PHYSDEV(d) )
             return domain_iomem_in_pfn(d, pfn);
 
-        MEM_LOG("Non-privileged attempt to map I/O space %08lx", pfn);
+        MEM_LOG("Non-privileged attempt to map I/O space %p", pfn);
         return 0;
     }
 
@@ -617,7 +615,7 @@ static inline int update_l2e(l2_pgentry_t *pl2e,
                               l2_pgentry_val(ol2e), 
                               l2_pgentry_val(nl2e));
     if ( o != l2_pgentry_val(ol2e) )
-        MEM_LOG("Failed to update %08lx -> %08lx: saw %08lx\n",
+        MEM_LOG("Failed to update %p -> %p: saw %p\n",
                 l2_pgentry_val(ol2e), l2_pgentry_val(nl2e), o);
     return (o == l2_pgentry_val(ol2e));
 }
@@ -681,7 +679,7 @@ static inline int update_l1e(l1_pgentry_t *pl1e,
     if ( unlikely(cmpxchg_user(pl1e, o, n) != 0) ||
          unlikely(o != l1_pgentry_val(ol1e)) )
     {
-        MEM_LOG("Failed to update %08lx -> %08lx: saw %08lx\n",
+        MEM_LOG("Failed to update %p -> %p: saw %p\n",
                 l1_pgentry_val(ol1e), l1_pgentry_val(nl1e), o);
         return 0;
     }
@@ -845,7 +843,7 @@ int get_page_type(struct pfn_info *page, u32 type)
         nx = x + 1;
         if ( unlikely((nx & PGT_count_mask) == 0) )
         {
-            MEM_LOG("Type count overflow on pfn %08lx\n", page_to_pfn(page));
+            MEM_LOG("Type count overflow on pfn %p\n", page_to_pfn(page));
             return 0;
         }
         else if ( unlikely((x & PGT_count_mask) == 0) )
@@ -881,7 +879,7 @@ int get_page_type(struct pfn_info *page, u32 type)
             {
                 if ( ((x & PGT_type_mask) != PGT_l2_page_table) ||
                      ((type & PGT_type_mask) != PGT_l1_page_table) )
-                    MEM_LOG("Bad type (saw %08x != exp %08x) for pfn %08lx\n",
+                    MEM_LOG("Bad type (saw %08x != exp %08x) for pfn %p\n",
                             x & PGT_type_mask, type, page_to_pfn(page));
                 return 0;
             }
@@ -916,7 +914,7 @@ int get_page_type(struct pfn_info *page, u32 type)
         /* Try to validate page type; drop the new reference on failure. */
         if ( unlikely(!alloc_page_type(page, type & PGT_type_mask)) )
         {
-            MEM_LOG("Error while validating pfn %08lx for type %08x."
+            MEM_LOG("Error while validating pfn %p for type %08x."
                     " caf=%08x taf=%08x\n",
                     page_to_pfn(page), type,
                     page->count_info,
@@ -958,7 +956,7 @@ int new_guest_cr3(unsigned long pfn)
     }
     else
     {
-        MEM_LOG("Error while installing new baseptr %08lx", pfn);
+        MEM_LOG("Error while installing new baseptr %p", pfn);
     }
 
     return okay;
@@ -993,14 +991,14 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
 
         if ( unlikely(!okay) )
         {
-            MEM_LOG("Error while pinning pfn %08lx", pfn);
+            MEM_LOG("Error while pinning pfn %p", pfn);
             break;
         }
 
         if ( unlikely(test_and_set_bit(_PGT_pinned,
                                        &page->u.inuse.type_info)) )
         {
-            MEM_LOG("Pfn %08lx already pinned", pfn);
+            MEM_LOG("Pfn %p already pinned", pfn);
             put_page_and_type(page);
             okay = 0;
             break;
@@ -1011,7 +1009,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
     case MMUEXT_UNPIN_TABLE:
         if ( unlikely(!(okay = get_page_from_pagenr(pfn, FOREIGNDOM))) )
         {
-            MEM_LOG("Page %08lx bad domain (dom=%p)",
+            MEM_LOG("Page %p bad domain (dom=%p)",
                     ptr, page_get_owner(page));
         }
         else if ( likely(test_and_clear_bit(_PGT_pinned, 
@@ -1024,7 +1022,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
         {
             okay = 0;
             put_page(page);
-            MEM_LOG("Pfn %08lx not pinned", pfn);
+            MEM_LOG("Pfn %p not pinned", pfn);
         }
         break;
 
@@ -1061,7 +1059,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
              ((ptr+ents*LDT_ENTRY_SIZE) > PAGE_OFFSET) )
         {
             okay = 0;
-            MEM_LOG("Bad args to SET_LDT: ptr=%08lx, ents=%08lx", ptr, ents);
+            MEM_LOG("Bad args to SET_LDT: ptr=%p, ents=%p", ptr, ents);
         }
         else if ( (ed->arch.ldt_ents != ents) || 
                   (ed->arch.ldt_base != ptr) )
@@ -1130,7 +1128,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
              unlikely(!pfn_is_ram(pfn)) ||
              unlikely((e = find_domain_by_id(domid)) == NULL) )
         {
-            MEM_LOG("Bad frame (%08lx) or bad domid (%d).\n", pfn, domid);
+            MEM_LOG("Bad frame (%p) or bad domid (%d).\n", pfn, domid);
             okay = 0;
             break;
         }
@@ -1150,7 +1148,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
                           (1|PGC_allocated)) ||
                  unlikely(nd != d) )
             {
-                MEM_LOG("Bad page values %08lx: ed=%p(%u), sd=%p,"
+                MEM_LOG("Bad page values %p: ed=%p(%u), sd=%p,"
                         " caf=%08x, taf=%08x\n", page_to_pfn(page),
                         d, d->id, nd, x, page->u.inuse.type_info);
                 spin_unlock(&d->page_alloc_lock);
@@ -1186,7 +1184,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
              unlikely(!gnttab_prepare_for_transfer(e, d, gntref)) )
         {
             MEM_LOG("Transferee has no reservation headroom (%d,%d), or "
-                    "provided a bad grant ref, or is dying (%08lx).\n",
+                    "provided a bad grant ref, or is dying (%p).\n",
                     e->tot_pages, e->max_pages, e->d_flags);
             spin_unlock(&e->page_alloc_lock);
             put_domain(e);
@@ -1219,7 +1217,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
         e = percpu_info[cpu].foreign;
         if ( unlikely(e == NULL) )
         {
-            MEM_LOG("No FOREIGNDOM to reassign pfn %08lx to", pfn);
+            MEM_LOG("No FOREIGNDOM to reassign pfn %p to", pfn);
             okay = 0;
             break;
         }
@@ -1262,7 +1260,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
                           (1|PGC_allocated)) ||
                  unlikely(nd != d) )
             {
-                MEM_LOG("Bad page values %08lx: ed=%p(%u), sd=%p,"
+                MEM_LOG("Bad page values %p: ed=%p(%u), sd=%p,"
                         " caf=%08x, taf=%08x\n", page_to_pfn(page),
                         d, d->id, nd, x, page->u.inuse.type_info);
                 okay = 0;
@@ -1304,7 +1302,7 @@ static int do_extended_command(unsigned long ptr, unsigned long val)
         break;
 
     default:
-        MEM_LOG("Invalid extended pt command 0x%08lx", val & MMUEXT_CMD_MASK);
+        MEM_LOG("Invalid extended pt command 0x%p", val & MMUEXT_CMD_MASK);
         okay = 0;
         break;
     }
@@ -1511,7 +1509,7 @@ int do_mmu_update(
             break;
 
         default:
-            MEM_LOG("Invalid page update command %08lx", req.ptr);
+            MEM_LOG("Invalid page update command %p", req.ptr);
             break;
         }
 
@@ -1876,7 +1874,7 @@ void ptwr_flush(const int which)
          */
         BUG();
     }
-    PTWR_PRINTK("[%c] disconnected_l1va at %p is %08lx\n",
+    PTWR_PRINTK("[%c] disconnected_l1va at %p is %p\n",
                 PTWR_PRINT_WHICH, ptep, pte);
     pte &= ~_PAGE_RW;
 
@@ -1911,7 +1909,7 @@ void ptwr_flush(const int which)
 #else
     flush_tlb_all();
 #endif
-    PTWR_PRINTK("[%c] disconnected_l1va at %p now %08lx\n",
+    PTWR_PRINTK("[%c] disconnected_l1va at %p now %p\n",
                 PTWR_PRINT_WHICH, ptep, pte);
 
     /*
@@ -2035,7 +2033,7 @@ int ptwr_do_page_fault(unsigned long addr)
 
     if ( l2_idx == (addr >> L2_PAGETABLE_SHIFT) )
     {
-        MEM_LOG("PTWR failure! Pagetable maps itself at %08lx\n", addr);
+        MEM_LOG("PTWR failure! Pagetable maps itself at %p\n", addr);
         domain_crash();
     }
 
@@ -2064,8 +2062,8 @@ int ptwr_do_page_fault(unsigned long addr)
         }
     }
     
-    PTWR_PRINTK("[%c] page_fault on l1 pt at va %08lx, pt for %08x, "
-                "pfn %08lx\n", PTWR_PRINT_WHICH,
+    PTWR_PRINTK("[%c] page_fault on l1 pt at va %p, pt for %08x, "
+                "pfn %p\n", PTWR_PRINT_WHICH,
                 addr, l2_idx << L2_PAGETABLE_SHIFT, pfn);
     
     /*
@@ -2098,7 +2096,7 @@ int ptwr_do_page_fault(unsigned long addr)
     
     /* Finally, make the p.t. page writable by the guest OS. */
     pte |= _PAGE_RW;
-    PTWR_PRINTK("[%c] update %p pte to %08lx\n", PTWR_PRINT_WHICH,
+    PTWR_PRINTK("[%c] update %p pte to %p\n", PTWR_PRINT_WHICH,
                 &linear_pg_table[addr>>PAGE_SHIFT], pte);
     if ( unlikely(__put_user(pte, (unsigned long *)
                              &linear_pg_table[addr>>PAGE_SHIFT])) )
@@ -2157,7 +2155,7 @@ void ptwr_status(void)
     page = &frame_table[pfn];
     printk("need to alloc l1 page %p\n", page);
     /* make pt page writable */
-    printk("need to make read-only l1-page at %p is %08lx\n",
+    printk("need to make read-only l1-page at %p is %p\n",
            ptep, pte);
 
     if ( ptwr_info[cpu].ptinfo[PTWR_PT_ACTIVE].l1va == 0 )
index d591bbc6c27097754fef95ed83d93b4fe4409d80..70ad4be686caacbbad39f1a34b87fa4bd407920c 100644 (file)
@@ -249,7 +249,7 @@ static int shadow_mode_table_op(
 
     ASSERT(spin_is_locked(&d->arch.shadow_lock));
 
-    SH_VLOG("shadow mode table op %08lx %08lx count %d",
+    SH_VLOG("shadow mode table op %p %p count %d",
             pagetable_val(d->exec_domain[0]->arch.pagetable),    /* XXX SMP */
             pagetable_val(d->exec_domain[0]->arch.shadow_table), /* XXX SMP */
             d->arch.shadow_page_count);
@@ -422,7 +422,7 @@ void unshadow_table(unsigned long gpfn, unsigned int type)
     unsigned long  smfn;
     struct domain *d = page_get_owner(&frame_table[gpfn]);
 
-    SH_VLOG("unshadow_table type=%08x gpfn=%08lx", type, gpfn);
+    SH_VLOG("unshadow_table type=%08x gpfn=%p", type, gpfn);
 
     perfc_incrc(unshadow_table_count);
 
@@ -455,7 +455,7 @@ unsigned long shadow_l2_table(
 
     guest_gpfn = __mfn_to_gpfn(d, gpfn);
 
-    SH_VVLOG("shadow_l2_table( %08lx )", gpfn);
+    SH_VVLOG("shadow_l2_table( %p )", gpfn);
 
     perfc_incrc(shadow_l2_table_count);
 
@@ -506,7 +506,7 @@ unsigned long shadow_l2_table(
     if ( shadow_mode(d) != SHM_full_32 ) 
         unmap_domain_mem(spl2e);
 
-    SH_VLOG("shadow_l2_table( %08lx -> %08lx)", gpfn, spfn);
+    SH_VLOG("shadow_l2_table( %p -> %p)", gpfn, spfn);
     return spfn;
 }
 
@@ -526,7 +526,7 @@ static void shadow_map_l1_into_current_l2(unsigned long va)
     if ( !(sl1ss & PSH_shadowed) )
     {
         /* This L1 is NOT already shadowed so we need to shadow it. */
-        SH_VVLOG("4a: l1 not shadowed ( %08lx )", sl1pfn);
+        SH_VVLOG("4a: l1 not shadowed ( %p )", sl1pfn);
 
         sl1pfn_info = alloc_shadow_page(d);
         sl1pfn_info->u.inuse.type_info = PGT_l1_page_table;
@@ -555,7 +555,7 @@ static void shadow_map_l1_into_current_l2(unsigned long va)
     else
     {
         /* This L1 is shadowed already, but the L2 entry is missing. */
-        SH_VVLOG("4b: was shadowed, l2 missing ( %08lx )", sl1pfn);
+        SH_VVLOG("4b: was shadowed, l2 missing ( %p )", sl1pfn);
 
         sl1pfn = sl1ss & PSH_pfn_mask;
         l2pde_general(d, &gl2e, &sl2e, sl1pfn);
@@ -596,7 +596,7 @@ int shadow_fault(unsigned long va, long error_code)
     struct exec_domain *ed = current;
     struct domain *d = ed->domain;
 
-    SH_VVLOG("shadow_fault( va=%08lx, code=%ld )", va, error_code );
+    SH_VVLOG("shadow_fault( va=%p, code=%ld )", va, error_code );
 
     check_pagetable(d, ed->arch.pagetable, "pre-sf");
 
@@ -678,7 +678,7 @@ int shadow_fault(unsigned long va, long error_code)
     if ( unlikely(__put_user(spte, (unsigned long *)
                              &shadow_linear_pg_table[va >> PAGE_SHIFT])) )
     {
-        SH_VVLOG("3: not shadowed/mapped gpte=%08lx spte=%08lx", gpte, spte);
+        SH_VVLOG("3: not shadowed/mapped gpte=%p spte=%p", gpte, spte);
         shadow_map_l1_into_current_l2(va);
         shadow_linear_pg_table[va >> PAGE_SHIFT] = mk_l1_pgentry(spte);
     }
@@ -702,8 +702,8 @@ void shadow_l1_normal_pt_update(
     l1_pgentry_t *spl1e, *prev_spl1e = *prev_spl1e_ptr;
 
     /* N.B. To get here, we know the l1 page *must* be shadowed. */
-    SH_VVLOG("shadow_l1_normal_pt_update pa=%08lx, gpte=%08lx, "
-             "prev_smfn=%08lx, prev_spl1e=%p",
+    SH_VVLOG("shadow_l1_normal_pt_update pa=%p, gpte=%p, "
+             "prev_smfn=%p, prev_spl1e=%p",
              pa, gpte, prev_smfn, prev_spl1e);
 
     smfn = __shadow_status(current->domain, pa >> PAGE_SHIFT) & PSH_pfn_mask;
@@ -732,7 +732,7 @@ void shadow_l2_normal_pt_update(unsigned long pa, unsigned long gpde)
     unsigned long sl1mfn;
 
     /* N.B. To get here, we know the l2 page *must* be shadowed. */
-    SH_VVLOG("shadow_l2_normal_pt_update pa=%08lx, gpde=%08lx",pa,gpde);
+    SH_VVLOG("shadow_l2_normal_pt_update pa=%p, gpde=%p",pa,gpde);
 
     sl2mfn = __shadow_status(current->domain, pa >> PAGE_SHIFT) & PSH_pfn_mask;
 
@@ -771,8 +771,8 @@ char * sh_check_name;
 
 #define FAIL(_f, _a...)                                                      \
     do {                                                                     \
-        printk("XXX %s-FAIL (%d,%d)" _f " g=%08lx s=%08lx &g=%08lx &s=%08lx" \
-               " pa(&g)=%08lx pa(&s)=%08lx\n",                               \
+        printk("XXX %s-FAIL (%d,%d)" _f " g=%p s=%p &g=%p &s=%p" \
+               " pa(&g)=%p pa(&s)=%p\n",                               \
                sh_check_name, level, i, ## _a , gpte, spte, pgpte, pspte,    \
                virt_to_phys2(pgpte), virt_to_phys2(pspte));                  \
         errors++;                                                            \
@@ -829,7 +829,7 @@ static int check_pte(
             FAIL("Shadow in L1 entry?");
 
         if ( __shadow_status(d, gpfn) != (PSH_shadowed | smfn) )
-            FAIL("smfn problem g.sf=%08lx", 
+            FAIL("smfn problem g.sf=%p", 
                  __shadow_status(d, gpfn) );
     }
 
@@ -885,7 +885,7 @@ void check_pagetable(struct domain *d, pagetable_t pt, char *s)
   
     if ( ! (ss & PSH_shadowed) )
     {
-        printk("%s-PT %08lx not shadowed\n", s, gptbase);
+        printk("%s-PT %p not shadowed\n", s, gptbase);
 
         if ( ss != 0 )
             BUG();
@@ -908,7 +908,7 @@ void check_pagetable(struct domain *d, pagetable_t pt, char *s)
         for ( i = DOMAIN_ENTRIES_PER_L2_PAGETABLE; 
               i < (SH_LINEAR_PT_VIRT_START >> L2_PAGETABLE_SHIFT);
               i++ )
-            printk("+++ (%d) %08lx %08lx\n",i,
+            printk("+++ (%d) %p %p\n",i,
                    l2_pgentry_val(gpl2e[i]), l2_pgentry_val(spl2e[i]));
         FAILPT("hypervisor entries inconsistent");
     }
@@ -920,7 +920,7 @@ void check_pagetable(struct domain *d, pagetable_t pt, char *s)
     if ( (l2_pgentry_val(spl2e[SH_LINEAR_PT_VIRT_START >> 
                               L2_PAGETABLE_SHIFT]) != 
           ((smfn << PAGE_SHIFT) | __PAGE_HYPERVISOR)) )
-        FAILPT("hypervisor shadow linear map inconsistent %08lx %08lx",
+        FAILPT("hypervisor shadow linear map inconsistent %p %p",
                l2_pgentry_val(spl2e[SH_LINEAR_PT_VIRT_START >>
                                    L2_PAGETABLE_SHIFT]),
                (smfn << PAGE_SHIFT) | __PAGE_HYPERVISOR);
index e19f5e212a873795add92601f71a573ec060b88b..d867cd8f12007ee96ee619d9925936dc37ed8c04 100644 (file)
@@ -272,12 +272,6 @@ asmlinkage int do_page_fault(struct xen_regs *regs)
 
     perfc_incrc(page_faults);
 
-#if 0
-    printk("do_page_fault(addr=0x%08lx, error_code=%d)\n",
-           addr, regs->error_code);
-    show_registers(regs);
-#endif
-
     if ( likely(VM_ASSIST(d, VMASST_TYPE_writable_pagetables)) )
     {
         LOCK_BIGLOCK(d);
index 7f6d1ae198d8d13cf954c7f4ab246ada3daaeda1..fb7c8d9aacecd28a3b2deecc47dc25cd61152936 100644 (file)
@@ -277,7 +277,7 @@ static void vmx_vmexit_do_invlpg(unsigned long va)
 
     __vmread(GUEST_EIP, &eip);
 
-    VMX_DBG_LOG(DBG_LEVEL_VMMU, "vmx_vmexit_do_invlpg:eip=%08lx, va=%08lx\n",
+    VMX_DBG_LOG(DBG_LEVEL_VMMU, "vmx_vmexit_do_invlpg:eip=%p, va=%p\n",
             eip, va);
 
     /*
@@ -339,7 +339,7 @@ static void vmx_io_instruction(struct xen_regs *regs,
     __vmread(GUEST_EIP, &eip);
 
     VMX_DBG_LOG(DBG_LEVEL_1, 
-            "vmx_io_instruction: eip=%08lx, exit_qualification = %lx\n",
+            "vmx_io_instruction: eip=%p, exit_qualification = %lx\n",
             eip, exit_qualification);
 
     if (test_bit(6, &exit_qualification))
@@ -653,7 +653,7 @@ static inline void vmx_vmexit_do_hlt()
     unsigned long eip;
     __vmread(GUEST_EIP, &eip);
 #endif
-    VMX_DBG_LOG(DBG_LEVEL_1, "vmx_vmexit_do_hlt:eip=%08lx\n", eip);
+    VMX_DBG_LOG(DBG_LEVEL_1, "vmx_vmexit_do_hlt:eip=%p\n", eip);
     __enter_scheduler();
 }
 
@@ -663,7 +663,7 @@ static inline void vmx_vmexit_do_mwait()
     unsigned long eip;
     __vmread(GUEST_EIP, &eip);
 #endif
-    VMX_DBG_LOG(DBG_LEVEL_1, "vmx_vmexit_do_mwait:eip=%08lx\n", eip);
+    VMX_DBG_LOG(DBG_LEVEL_1, "vmx_vmexit_do_mwait:eip=%p\n", eip);
     __enter_scheduler();
 }
 
@@ -915,7 +915,7 @@ asmlinkage void vmx_vmexit_handler(struct xen_regs regs)
         break;
     case EXIT_REASON_MSR_WRITE:
         __vmread(GUEST_EIP, &eip);
-        VMX_DBG_LOG(DBG_LEVEL_1, "MSR_WRITE: eip=%08lx, eax=%08lx, edx=%08lx",
+        VMX_DBG_LOG(DBG_LEVEL_1, "MSR_WRITE: eip=%p, eax=%p, edx=%p",
                 eip, regs.eax, regs.edx);
         /* just ignore this point */
         __get_instruction_length(inst_len);
index f1a7ee0c8c9a9b700b58b1d91468444f52c5102a..4e3994ccd151fa242eca128f64288189a7802be4 100644 (file)
@@ -94,7 +94,7 @@ free_dom_mem(struct domain *d,
         {
             if ( unlikely((mpfn + j) >= max_page) )
             {
-                DPRINTK("Domain %u page number out of range (%08lx>=%08lx)\n", 
+                DPRINTK("Domain %u page number out of range (%p>=%p)\n", 
                         d->id, mpfn + j, max_page);
                 return i;
             }
index 5fc2a14668b946c8566e6e03081e995264650889..15d29188ce596f143e00356f6e8663bc08977dba 100644 (file)
@@ -165,7 +165,7 @@ void init_boot_pages(unsigned long ps, unsigned long pe)
 
         if ( (bad_pfn < (bitmap_size*8)) && !allocated_in_map(bad_pfn) )
         {
-            printk("Marking page %08lx as bad\n", bad_pfn);
+            printk("Marking page %p as bad\n", bad_pfn);
             map_alloc(bad_pfn, 1);
         }
     }
index d290271796ba32f4982e6d0da08b25a57da67f0f..343cbd544cd687c214b4ae9f00f5a48127b86253 100644 (file)
@@ -231,7 +231,7 @@ int domain_iomem_in_pfn(struct domain *p, unsigned long pfn)
     phys_dev_t *phys_dev;
 
     VERBOSE_INFO("Checking if physdev-capable domain %u needs access to "
-                 "pfn %08lx\n", p->id, pfn);
+                 "pfn %p\n", p->id, pfn);
     
     spin_lock(&p->pcidev_lock);
 
@@ -257,7 +257,7 @@ int domain_iomem_in_pfn(struct domain *p, unsigned long pfn)
     
     spin_unlock(&p->pcidev_lock);
 
-    VERBOSE_INFO("Domain %u %s mapping of pfn %08lx\n",
+    VERBOSE_INFO("Domain %u %s mapping of pfn %p\n",
                  p->id, ret ? "allowed" : "disallowed", pfn);
 
     return ret;
index 81e60a05fe621c26f2921d9335b5174082397489..4d36b6c25b1665ea0018e5c8bf89ccf865ff9fe9 100644 (file)
@@ -100,16 +100,13 @@ struct pfn_info
 #define IS_XEN_HEAP_FRAME(_pfn) (page_to_phys(_pfn) < xenheap_phys_end)
 
 #if defined(__i386__)
-
 #define pickle_domptr(_d)   ((u32)(unsigned long)(_d))
 #define unpickle_domptr(_d) ((struct domain *)(unsigned long)(_d))
-
 #elif defined(__x86_64__)
 static inline struct domain *unpickle_domptr(u32 _domain)
 { return (_domain == 0) ? NULL : __va(_domain); }
 static inline u32 pickle_domptr(struct domain *domain)
 { return (domain == NULL) ? 0 : (u32)__pa(domain); }
-
 #endif
 
 #define page_get_owner(_p)    (unpickle_domptr((_p)->u.inuse._domain))
@@ -171,7 +168,7 @@ static inline int get_page(struct pfn_info *page,
              unlikely((nx & PGC_count_mask) == 0) || /* Count overflow? */
              unlikely(d != _domain) )                /* Wrong owner? */
         {
-            DPRINTK("Error pfn %08lx: ed=%p, sd=%p, caf=%08x, taf=%08x\n",
+            DPRINTK("Error pfn %p: ed=%p, sd=%p, caf=%08x, taf=%08x\n",
                     page_to_pfn(page), domain, unpickle_domptr(d),
                     x, page->u.inuse.type_info);
             return 0;
index 0131af81bd1ad59232685b4aff9e4ee123e2cce1..7618c610f2be23f81f3a62c1236f6a81e43c330d 100644 (file)
@@ -237,7 +237,7 @@ static inline void l1pte_write_fault(
 
     spte = (mfn << PAGE_SHIFT) | (gpte & ~PAGE_MASK);
 
-    SH_VVLOG("l1pte_write_fault: updating spte=0x%08lx gpte=0x%08lx", spte, gpte);
+    SH_VVLOG("l1pte_write_fault: updating spte=0x%p gpte=0x%p", spte, gpte);
     *gpte_p = gpte;
     *spte_p = spte;
 }
@@ -256,7 +256,7 @@ static inline void l1pte_read_fault(
     if ( (shadow_mode(d) == SHM_logdirty) || ! (gpte & _PAGE_DIRTY) )
         spte &= ~_PAGE_RW;
 
-    SH_VVLOG("l1pte_read_fault: updating spte=0x%08lx gpte=0x%08lx", spte, gpte);
+    SH_VVLOG("l1pte_read_fault: updating spte=0x%p gpte=0x%p", spte, gpte);
     *gpte_p = gpte;
     *spte_p = spte;
 }
@@ -309,7 +309,7 @@ static inline void l1pte_propagate_from_guest(
 
 #if SHADOW_VERBOSE_DEBUG
     if ( old_spte || spte || gpte )
-        SH_VVLOG("l1pte_propagate_from_guest: gpte=0x%08lx, old spte=0x%08lx, new spte=0x%08lx ", gpte, old_spte, spte);
+        SH_VVLOG("l1pte_propagate_from_guest: gpte=0x%p, old spte=0x%p, new spte=0x%p ", gpte, old_spte, spte);
 #endif
 
     *gpte_p = gpte;
@@ -366,7 +366,7 @@ static void shadow_audit(struct domain *d, int print)
             live++; 
             if ( (a->pfn == 0) || (a->smfn_and_flags == 0) )
             {
-                printk("XXX live=%d pfn=%08lx sp=%08lx next=%p\n",
+                printk("XXX live=%d pfn=%p sp=%p next=%p\n",
                        live, a->pfn, a->smfn_and_flags, a->next);
                 BUG();
             }
@@ -439,7 +439,7 @@ static inline unsigned long __shadow_status(
                 SWAP(head->smfn_and_flags, x->smfn_and_flags);
             }
 
-            SH_VVLOG("lookup gpfn=%08lx => status=%08lx",
+            SH_VVLOG("lookup gpfn=%p => status=%p",
                      gpfn, head->smfn_and_flags);
             return head->smfn_and_flags;
         }
@@ -449,7 +449,7 @@ static inline unsigned long __shadow_status(
     }
     while ( x != NULL );
 
-    SH_VVLOG("lookup gpfn=%08lx => status=0", gpfn);
+    SH_VVLOG("lookup gpfn=%p => status=0", gpfn);
     return 0;
 }
 
@@ -577,7 +577,7 @@ static inline void set_shadow_status(
 
     x = head = hash_bucket(d, gpfn);
    
-    SH_VVLOG("set gpfn=%08x s=%08lx bucket=%p(%p)", gpfn, s, x, x->next);
+    SH_VVLOG("set gpfn=%08x s=%p bucket=%p(%p)", gpfn, s, x, x->next);
     shadow_audit(d, 0);
 
     /*
@@ -692,7 +692,7 @@ static inline void __shadow_mk_pagetable(struct exec_domain *ed)
     unsigned long gpfn = pagetable_val(ed->arch.pagetable) >> PAGE_SHIFT;
     unsigned long smfn = __shadow_status(d, gpfn) & PSH_pfn_mask;
 
-    SH_VVLOG("0: __shadow_mk_pagetable(gpfn=%08lx, smfn=%08lx)", gpfn, smfn);
+    SH_VVLOG("0: __shadow_mk_pagetable(gpfn=%p, smfn=%p)", gpfn, smfn);
 
     if ( unlikely(smfn == 0) )
         smfn = shadow_l2_table(d, gpfn);
@@ -709,7 +709,7 @@ static inline void shadow_mk_pagetable(struct exec_domain *ed)
 {
      if ( unlikely(shadow_mode(ed->domain)) )
      {
-         SH_VVLOG("shadow_mk_pagetable( gptbase=%08lx, mode=%d )",
+         SH_VVLOG("shadow_mk_pagetable( gptbase=%p, mode=%d )",
              pagetable_val(ed->arch.pagetable),
                   shadow_mode(ed->domain)); 
 
@@ -718,7 +718,7 @@ static inline void shadow_mk_pagetable(struct exec_domain *ed)
          shadow_unlock(ed->domain);
 
      SH_VVLOG("leaving shadow_mk_pagetable:\n"
-              "( gptbase=%08lx, mode=%d ) sh=%08lx",
+              "( gptbase=%p, mode=%d ) sh=%p",
               pagetable_val(ed->arch.pagetable),
               shadow_mode(ed->domain), 
               pagetable_val(ed->arch.shadow_table) );
index d09bddccdb8cd3eecbe558a56ed8f479876be91a..6446c0c7f11dc420d85a16b30e2c562f622aff55 100644 (file)
@@ -9,18 +9,18 @@ struct xen_regs
     u64 r14;
     u64 r13;
     u64 r12;
-    union { u64 rbp; u32 ebp; } __attribute__ ((packed));
-    union { u64 rbx; u32 ebx; } __attribute__ ((packed));
+    union { u64 rbp; u64 ebp; } __attribute__ ((packed));
+    union { u64 rbx; u64 ebx; } __attribute__ ((packed));
     /* NB. Above here is C callee-saves. */
     u64 r11;
     u64 r10;   
     u64 r9;
     u64 r8;
-    union { u64 rax; u32 eax; } __attribute__ ((packed));
-    union { u64 rcx; u32 ecx; } __attribute__ ((packed));
-    union { u64 rdx; u32 edx; } __attribute__ ((packed));
-    union { u64 rsi; u32 esi; } __attribute__ ((packed));
-    union { u64 rdi; u32 edi; } __attribute__ ((packed));
+    union { u64 rax; u64 eax; } __attribute__ ((packed));
+    union { u64 rcx; u64 ecx; } __attribute__ ((packed));
+    union { u64 rdx; u64 edx; } __attribute__ ((packed));
+    union { u64 rsi; u64 esi; } __attribute__ ((packed));
+    union { u64 rdi; u64 edi; } __attribute__ ((packed));
     u32 error_code;
     u32 entry_vector;
     union { u64 rip; u64 eip; } __attribute__ ((packed));